Monde
Le racisme devenu légal en France ?
Le racisme est illégal en France. Toute personne commettant un acte raciste encours une vive punition. Pourtant, le racisme existe bel et bien dans ce pays. et exerce son terrorisme en toute libertée.